A default assumption in reinforcement learning and optimal control is that experience arrives at discrete time points on a fixed clock cycle. Many applications, however, involve continuous systems where the time discretization is not fixed but instead can be managed by a learning algorithm. By analyzing Monte-Carlo value estimation for LQR systems in both finite-horizon and infinite-horizon settings, we uncover a fundamental trade-off between approximation and statistical error in value estimation. Importantly, these two errors behave differently with respect to time discretization, which implies that there is an optimal choice for the temporal resolution that depends on the data budget. These findings show how adapting the temporal resolution can provably improve value estimation quality in LQR systems from finite data. Empirically, we demonstrate the trade-off in numerical simulations of LQR instances and several non-linear environments.
translated by 谷歌翻译
This article presents a novel review of Active SLAM (A-SLAM) research conducted in the last decade. We discuss the formulation, application, and methodology applied in A-SLAM for trajectory generation and control action selection using information theory based approaches. Our extensive qualitative and quantitative analysis highlights the approaches, scenarios, configurations, types of robots, sensor types, dataset usage, and path planning approaches of A-SLAM research. We conclude by presenting the limitations and proposing future research possibilities. We believe that this survey will be helpful to researchers in understanding the various methods and techniques applied to A-SLAM formulation.
translated by 谷歌翻译
This article presents morphologically-annotated Yemeni, Sudanese, Iraqi, and Libyan Arabic dialects Lisan corpora. Lisan features around 1.2 million tokens. We collected the content of the corpora from several social media platforms. The Yemeni corpus (~ 1.05M tokens) was collected automatically from Twitter. The corpora of the other three dialects (~ 50K tokens each) came manually from Facebook and YouTube posts and comments. Thirty five (35) annotators who are native speakers of the target dialects carried out the annotations. The annotators segemented all words in the four corpora into prefixes, stems and suffixes and labeled each with different morphological features such as part of speech, lemma, and a gloss in English. An Arabic Dialect Annotation Toolkit ADAT was developped for the purpose of the annation. The annotators were trained on a set of guidelines and on how to use ADAT. We developed ADAT to assist the annotators and to ensure compatibility with SAMA and Curras tagsets. The tool is open source, and the four corpora are also available online.
translated by 谷歌翻译
当预测不久的将来的环境中的要素状态时,Endley情况意识模型的最高级别称为投影。在网络安全状况的意识中,对高级持续威胁(APT)的投影需要预测APT的下一步。威胁正在不断变化,变得越来越复杂。由于受监督和无监督的学习方法需要APT数据集​​来投影APT的下一步,因此他们无法识别未知的APT威胁。在强化学习方法中,代理与环境相互作用,因此它可能会投射出已知和未知APT的下一步。到目前为止,尚未使用强化学习来计划APTS的下一步。在强化学习中,代理商使用先前的状态和行动来近似当前状态的最佳动作。当状态和行动的数量丰富时,代理人采用神经网络,该网络被称为深度学习来近似每个州的最佳动作。在本文中,我们提出了一个深厚的加固学习系统,以预测APT的下一步。随着攻击步骤之间的某种关系,我们采用长期短期记忆(LSTM)方法来近似每个状态的最佳动作。在我们提出的系统中,根据当前情况,我们将投影APT威胁的下一步。
translated by 谷歌翻译
Covid-19影响了世界各地,尽管对爆发的错误信息的传播速度比病毒更快。错误的信息通过在线社交网络(OSN)传播,通常会误导人们遵循正确的医疗实践。特别是,OSN机器人一直是传播虚假信息和发起网络宣传的主要来源。现有工作忽略了机器人的存在,这些机器人在传播中充当催化剂,并专注于“帖子中共享的文章”而不是帖子(文本)内容中的假新闻检测。大多数关于错误信息检测的工作都使用手动标记的数据集,这些数据集很难扩展以构建其预测模型。在这项研究中,我们通过在Twitter数据集上使用经过验证的事实检查的陈述来标记数据来克服这一数据稀缺性挑战。此外,我们将文本功能与用户级功能(例如关注者计数和朋友计数)和推文级功能(例如Tweet中的提及,主题标签和URL)结合起来,以充当检测错误信息的其他指标。此外,我们分析了推文中机器人的存在,并表明机器人随着时间的流逝改变了其行为,并且在错误信息中最活跃。我们收集了1022万个Covid-19相关推文,并使用我们的注释模型来构建一个广泛的原始地面真实数据集以进行分类。我们利用各种机器学习模型来准确检测错误信息,我们的最佳分类模型达到了精度(82%),召回(96%)和假阳性率(3.58%)。此外,我们的机器人分析表明,机器人约为错误信息推文的10%。我们的方法可以实质性地暴露于虚假信息,从而改善了通过社交媒体平台传播的信息的可信度。
translated by 谷歌翻译
我们从逻辑和公式大小方面概念化了解释性,在非常一般的环境中给出了许多相关的解释性定义。我们的主要兴趣是所谓的特殊解释问题,旨在解释输入模型中输入公式的真实价值。解释是一个最小尺寸的公式,(1)与输入模型上的输入公式一致,(2)将所涉及的真实价值传输到全球输入公式,即每个模型上。作为一个重要的例子,我们在这种情况下研究了命题逻辑,并表明在多项式层次结构的第二级中,特殊的解释性问题是完整的。我们还将在答案集编程中提供了此问题的实施,并研究了其与解释N-Queens和主导集合问题的答案有关的能力。
translated by 谷歌翻译
我们介绍了Gaudi,Gaudi是一种生成模型,能够捕获可以从移动的相机中沉浸式的复杂和现实3D场景的分布。我们通过一种可扩展而强大的方法解决了这个具有挑战性的问题,我们首先优化了散布辐射场和相机姿势的潜在表示。然后,该潜在表示将学习一个生成模型,该模型可以使3D场景的无条件生成和条件生成。我们的模型概括了以前的作品,该作品通过删除可以在样本中共享相机姿势分布的假设来关注单个对象。我们表明,高迪(Gaudi)在多个数据集的无条件生成设置中获得了最先进的性能,并允许有条件地生成3D场景给定的调理变量,例如稀疏图像观测值或描述场景的文本。
translated by 谷歌翻译
随着在过去十年的行业4.0技术的出现,机场经历了数字化,以利用这些技术的声称益处,如改善的运营效率和乘客经验。正在进行的Covid-19随着其变体的出现(例如三角洲,omicron)加剧了机场需要采用非接触式和机器人技术的新技术,以便在这种大流行期间提供旅行。然而,了解最近的挑战和成功因素,以便在机场采用数字技术。因此,通过对世界各地的机场运营商和管理人员的行业调查(n = 102,0.754,0.754 <Composite可靠性<0.892;在Covid-19期间进行),本研究确定了采用行业4.0技术(N = 20)所面临的挑战这加强了对机场支持技术采用的最佳实践或成功因素的理解。广泛使用的技术,组织环境(TOE)框架被用作调查问卷的定量部分的理论上。互补的定性部分用于支撑并延长调查结果。该行业调查是首要讨论,了解机场运营商在机场采用行业4.0技术方面的实施挑战。调查结果表明,尽管在机场采用各种行业4.0技术的通用挑战,但行业4.0技术在机场也没有在机场中实现相似的。
translated by 谷歌翻译
机场一直不断发展和采用数字技术,以提高运营效率,增强乘客经验,从现有基础设施产生辅助收入和提升能力。 Covid-19 Pandemase也挑战机场和航空利益相关者,以适应和管理新的业务挑战,例如促进非接触式旅游经验和确保业务连续性。使用行业4.0技术的数字化为机场提供机会,以解决与Covid-19大流行相关的短期挑战,同时也为未来的危机做准备未来的长期挑战。通过对102条有关文章的系统文献综述,我们讨论了当前在机场,相关挑战以及未来的研究方向上采用行业4.0技术的现状。本综述结果表明,行业4.0技术的实施正在慢慢获得机场环境的牵引力,并在发展未来机场的数字转型旅程中继续保持相关。
translated by 谷歌翻译
场景理解是一个活跃的研究区域。商业深度传感器(如Kinect)在过去几年中启用了几个RGB-D数据集的发布,它在3D场景理解中产生了新的方法。最近,在Apple的iPad和iPhone中推出LIDAR传感器,可以在他们通常使用的设备上访问高质量的RGB-D数据。这在对计算机视觉社区以及应用程序开发人员来说,这是一个全新的时代。现场理解的基本研究与机器学习的进步一起可以影响人们的日常经历。然而,将这些现场改变为现实世界经验的理解方法需要额外的创新和发展。在本文中,我们介绍了Arkitscenes。它不仅是具有现在广泛可用深度传感器的第一个RGB-D数据集,而且是我们最好的知识,它也是了解数据发布的最大的室内场景。除了来自移动设备的原始和处理的数据之外,Arkitscenes还包括使用固定激光扫描仪捕获的高分辨率深度图,以及手动标记为家具的大型分类的3D定向边界盒。我们进一步分析了两个下游任务数据的有用性:3D对象检测和色彩引导深度上采样。我们展示了我们的数据集可以帮助推动现有最先进的方法的边界,并引入了更好代表真实情景的新挑战。
translated by 谷歌翻译